📚 Hub Books: Онлайн-чтение книгФэнтезиРоботы зари [= Роботы утренней зари ] - Айзек Азимов

Роботы зари [= Роботы утренней зари ] - Айзек Азимов

Шрифт:

-
+

Интервал:

-
+
1 ... 20 21 22 23 24 25 26 27 28 ... 115
Перейти на страницу:

– Что-о!

– Это же легенда, как я вам объяснил, и, несомненно, лживая. Хотя, учтите, существуют теоретические предпосылки, допускающие подобную возможность, но пока еще никто не предложил практической схемы, которая позволила бы создать такого робота. А о том, что подобная способность оказалась присуща примитивному позитронному мозгу в догиперпространственную эру, и речи быть не может. Вот почему мы абсолютно уверены, что данное сказание – чистая выдумка. Но тем не менее разрешите мне продолжать, потому что у этой истории есть мораль.

– Продолжайте, прошу вас.

– Этот робот, как гласит сказание, умел читать мысли. И когда ему задавали вопросы, он читал мысли спрашивающего и говорил именно то, что спрашивающему хотелось услышать. Первый Закон ясно и недвусмысленно запрещает роботу причинять вред человеку или бездействием допустить, чтобы человеку был причинен вред. Обычный робот понимает этот вред как физический. Робот же, способный читать мысли, несомненно решил бы, что разочарование, гнев или любое другое тягостное чувство делают человека, их испытывающего, несчастным, и вызвать их – значит причинить ему вред. А потому, предполагая, что правда может огорчить или рассердить спрашивающего, пробудить в нем зависть, сделать его несчастным, робот-телепат подменил бы истину приятной ложью. Понимаете?

– Конечно.

– И робот лгал даже самой Сьюзен Кэлвин. Долго так продолжаться не могло, поскольку разным людям говорились разные вещи, не только не согласующиеся друг с другом, но и не подкрепляемые объективной реальностью. Сьюзен Кэлвин обнаружила, что робот ей лгал и что из-за его лжи она попала в крайне тягостное положение. То, что вначале причинило бы ей лишь некоторое разочарование, теперь из-за ложных надежд обернулось нестерпимой болью… Вы действительно не знаете эту историю?

– Даю вам слово.

Поразительно! Однако родилась она не на Авроре, поскольку бытует на всех космомирах… Как бы то ни было, Кэлвин отомстила. Она указала роботу, что скажет ли он правду или солжет, человеку, с которым он разговаривает, неизбежно будет причинен вред. И любое его действие окажется нарушением Первого Закона. Осознав это, робот укрылся от неразрешимой дилеммы в полном бездействии. Его позитронные связи, если вам нравится цветистость, мгновенно испепелились. В его мозгу произошло необратимое разрушение. Согласно легенде, последним словом Сьюзен Кэлвин, обращенным к роботу, было «Лжец!»

– Если я понял правильно, – сказал Бейли, – что-то подобное произошло и с Джендером Пэнеллом. Он столкнулся с неразрешимым противоречием, и его мозг испепелился?

– Да, впечатление создается именно такое. Однако теперь поставить робота в подобное положение далеко не так просто, как в дни Сьюзен Кэлвин. Робопсихологи (возможно, из-за этой легенды) всегда принимали самые тщательные меры, чтобы подобное противоречие не могло возникнуть. Теория позитронного мозга развивается, модели его все более усложняются, а параллельно создаются все более надежные системы защиты, рассчитанные на то, чтобы в любой ситуации противодействующие факторы не уравновешивались, оставляя, возможность для какого-то действия, которое можно было бы истолковать как выполнение Первого Закона.

– Следовательно, испепелить мозг робота невозможно. Вы это хотите сказать? Но тогда что произошло с Джендером?

– Нет, этого я сказать не хочу! Все более надежные системы, о которых я говорю, абсолютной надежности не гарантируют и не могут гарантировать. Каким бы сложным и тонко мыслящим ни стал мозг, всегда найдется способ создать неразрешимое противоречие. Это математическая истина. Никогда не удастся создать настолько тонко мыслящий и защищенный мозг, чтобы свести возможность противоречия к нулю. К очень малой степени – да, но не к полному нулю. Однако системы настолько приближаются к нулю, что создание условий для умственной заморозки требует глубочайшего понимания конкретного позитронного мозга. А для этого необходим очень умный теоретик.

– Вроде вас, доктор Фастольф?

– Вроде меня. А если речь идет о человекоподобном роботе, так есть только я один.

– Или вообще нет никого, – заметил Бейли с тяжеловесной иронией.

– Или вообще никого. Вот именно, – ответил Фастольф, словно не заметив иронии. – Человекоподобные роботы обладают мозгом, да и телом, могу я прибавить, сформированными сознательно по образцу человеческих. Позитронный мозг – чрезвычайно тонкий механизм и, естественно, в определенной мере обладает хрупкостью человеческого мозга. Как у человека может произойти инсульт в результате какого-то внутреннего процесса и без всякого внешнего воздействия, так и человекоподобный мозг может по чистой случайности – непроизвольного дрейфа позитронов – впасть в умственную заморозку.

– Вы можете доказать это, доктор Фастольф?

– Могу продемонстрировать это математически, но отнюдь не все из тех, кто способен разобраться в формулах, согласятся с ходом моих рассуждений. В них включены некоторые мои предположения, которые не согласуются с общепринятыми положениями робопсихологии.

– Насколько вероятна самопроизвольная умственная заморозка?

– Если взять большое количество человекоподобных роботов, например сто тысяч, то почти наверное у одного из них на протяжении среднего срока жизни аврорианца произойдет самопроизвольная заморозка. Но произойти это может и много раньше, вот как с Джендером, хотя вероятность будет несравненно меньше.

– Послушайте, доктор Фастольф! Даже если вы сумеете неопровержимо доказать, что робот в принципе может пострадать от самопроизвольной заморозки, отсюда еще не следует, что именно это произошло конкретно с Джендером конкретно в этот момент.

– Да, – признал Фастольф. – Вы совершенно правы.

Вы, величайший эксперт в области робопсихологии, не можете доказать, что Джендер оказался жертвой именно такой случайности.

– Опять-таки вы совершенно правы.

– Так как же вы можете требовать этого от меня, когда я ничего не смыслю в роб о психологии?

– Но ведь доказывать ничего не надо. Разве не достаточно выдвинуть хитроумное предположение, которое убедит широкую публику в возможности самопроизвольной заморозки?

– Например?

– Я не знаю.

– Вы уверены, что не знаете, доктор Фастольф? – резко спросил Бейли.

– Как это? Я же только что сказал вам, что не знаю.

– Разрешите, я укажу вам кое на что. Полагаю, аврорианцам в целом известно, что я прилетел на планету для разрешения загадки. Было бы трудно привезти меня втайне, учитывая, что я землянин, а это Аврора.

– Бесспорно. И я не делал из этого никакой тайны. Я посоветовался с председателем Законодательного собрания и добился от него разрешения привезти вас сюда. Именно таким образом мне удалось настоять на отсрочке разбирательства. Вам дают возможность найти разгадку, прежде чем я предстану перед судом. Сомневаюсь, что они дадут мне много времени.

1 ... 20 21 22 23 24 25 26 27 28 ... 115
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?